![]() 網際網路影音資料之個人化排序方法
专利摘要:
一種網際網路影音資料之個人化排序方法,包含有下列步驟:a)使用至少一關鍵字找尋複數影音資料;b)由使用者決定一使用者指標,或未決定時取用一歷史行為指標;c)依該使用者指標或該歷史行為指標來對該等複數影音資料進行特徵內容擷取而分別取得一擷取特徵內容;d)將各該影音資料的擷取特徵內容與一使用者設定檔或一歷史行為檔進行相似度比較,比較後即得到各該影音資料所對應的一相似度分數;以及e)依上述相似度分數進行排序,進而得到該等複數影音資料的排序結果。 公开号:TW201306567A 申请号:TW100127105 申请日:2011-07-29 公开日:2013-02-01 发明作者:ren-yi Pan;zi-qiang Chen;Wen-Neng Lai 申请人:Nat Univ Chung Cheng; IPC主号:G06F16-00
专利说明:
網際網路影音資料之個人化排序方法 本發明係與資料的個人化整理方法有關,特別是指一種網際網路影音資料之個人化排序方法。 美國US 2010/0138413A1號專利案,揭露了一種個人化的搜尋系統與方法,其包括一搜尋引擎(search engine)以及一使用者偏好引擎(profiling engine)。其主要是以搜尋引擎處理使用者的識別,並接受輸入而產生搜尋結果,以及以使用者偏好引擎負責收集使用者操作以及偏好,建立使用者模型,並據以客製化排序搜尋的結果。 歐洲EP 1647903A1號專利案,揭露了搜尋及結果重製達成個人化的系統與方法。此案依據個人特性建立個人化模型,藉以客製其搜尋及結果。此案的個人化模型藉由分析使用者的行為及其他相關特質而自動建立,例如使用者過去的事件,以及之前使用者的搜尋記錄以及與系統的互動。或是可從使用者的地址或電郵位址來得知所在的城市。例如當搜尋”天氣”時,可自動搜尋出與所在城市相關的天氣資訊。 台灣TW 579478號專利案,揭露了由各項網路服務,記錄、統計使用者的網路行為,並且分析比較使用次數、語意相關度和使用滿意度,運用分析的結果來為使用者推薦適當的網路服務項目。 美國US 7620964號專利案,揭露了推薦電視與廣播頻道的技術。藉由紀錄使用者收看節目型態與收看時間,來推薦使用者喜好的節目與頻道。該專利的推薦方法係參考節目型態及收看時間,並且超過一段時間使將歷史紀錄刪除。 台灣TW 446933號專利案,揭露了一種分析語音以辨識情緒之裝置,可用於多媒體應用及測謊等領域。 上述的技術中,沒有一個技術是針對網際網路上尋找影音資料,並將之下載後,依據使用者個人的偏好來進行整理或排序的。 本發明之主要目的在於提供一種網際網路影音資料之個人化排序方法,其可將網際網路上所找尋並下載的影音資料,依據使用者的偏好來進行排序,以符合使用者的需求。 為了達成前述目的,依據本發明所提供之一種網際網路影音資料之個人化排序方法,包含有下列步驟:a)使用至少一關鍵字經由網際網路系統找尋對應的複數影音資料,並將找尋到的複數影音資料下載下來,該至少一關鍵字係由使用者自行選定;b)由使用者決定一使用者指標,或使用者未決定使用者指標時取用一歷史行為指標,其中該使用者指標及該歷史行為指標均係指使用者活動標籤、音訊情緒類別、或是影像動態類別三者中的其中之一或組合;c)依該使用者指標或該歷史行為指標來對前述已下載下來的該等複數影音資料進行特徵內容擷取而分別取得一擷取特徵內容;d)將各該影音資料的擷取特徵內容與一使用者設定檔或一歷史行為檔進行對應的相似度比較;比較後即得到各該影音資料所對應的一相似度分數,該相似度分數係對應於前述之使用者活動標籤、或音訊情緒類別、或影像動態類別、或三者的組合;以及e)依各該影音資料所對應的相似度分數進行排序,進而得到該等複數影音資料的排序結果。藉此,可將網際網路上所找尋並下載的影音資料,進行分析後依使用者的偏好來進行排序,以符合使用者的需求。 為了詳細說明本發明之技術特點所在,茲舉以下之較佳實施例並配合圖式說明如後,其中: 請參閱第一圖,本發明第一較佳實施例所提供之一種網際網路影音資料之個人化排序方法,主要包含有下列步驟: a)利用一上網裝置,使用至少一關鍵字經由網際網路系統並藉由特定網站找尋對應的複數影音資料,並將找尋到的複數影音資料下載至該上網裝置中,該至少一關鍵字係由使用者自行選定。該上網裝置可為一電腦、一智慧型手機或一連網電視,於本實施例中係以電腦為例。此外,各該影音資料具有詮釋資料(metadata)。於本實施例中,該上網裝置僅用來舉例說明而已,並非用以限制本案之專利範圍。 b)由使用者決定一使用者指標,或使用者未決定使用者指標時取用一歷史行為指標,該使用者指標及該歷史行為指標均係指使用者活動標籤、音訊情緒類別、或是影像動態類別三者的其中之一或組合。 c)藉由一運算裝置依該使用者指標或該歷史行為指標來對前述已下載下來的該等複數影音資料進行特徵內容擷取而分別取得一擷取特徵內容;若該使用者指標為使用者活動標籤,則擷取特徵內容為各該影音資料的詮釋資料(metadata)所具有的標籤(tag),該標籤係使用者觀看過此類影片的次數、時間的歷史記錄;若該使用者指標為音訊情緒類別,則擷取特徵內容為各該影音資料的音訊部分所對應的情緒類別;若該使用者指標為影像動態類別,則擷取特徵內容為各該影音資料的視訊部分所對應的動態與亮度。對音訊之情緒分類技術,請參照陳建宏先生「音訊之自動情緒分類」,國立中正大學碩士論文,民國九十九年(2010年)七月,而音訊的分類分佈狀態係如第二圖所示。該運算裝置可為一電腦、一智慧型手機或一連網電視,於本實施例中係以電腦為例,惟此運算裝置僅用以舉例而已,並非用以限制本案之申請專利範圍。前述的歷史行為指標係為使用者的使用記錄。 又,在上述的步驟c)中,在進行音訊的特徵內容擷取以及判斷其情緒類別時,如第三圖所示,包含了音訊前處理、特徵擷取、分類器分類等步驟。音訊前處理主要包含了取樣、去雜訊與切音框等工作,運用訊號處理的方法來強化所欲擷取的訊號,讓辨識的結果盡量不會受到不良音訊品質影響而造成不準確的情況發生。特徵擷取則必須依據不同情緒的檔案特色來找尋,舉例來說,快樂或偏向正面情緒的檔案,其背景音樂或者人物對白通常較為輕快;而悲傷或負面情緒的檔案,其背景音樂與對白則可能較緩慢與不和諧。分類器分類則是分為三種模式:單一平面的建模分類方法、多階層式的分類架構、以及適應性自主學習機制。單一平面的建模分類方法是先將各種分類狀況建置成各種模型,再把欲分類的影音資料的所有音訊特徵以向量的形式放在同一平面進行分類,此方法的困難處在於需要建立多組模型,並且找到為數眾多且分類精準的特徵值才能確保一定程度的準確性。多階層式的分類架構是將分類的項目依照各個階層所特定的分類準則,將待分類的影音資料的音訊依序一一分類,不過前端階層所造成的分類錯誤會傳遞到後端階層,造成分類誤差的放大,因此在分類器中加入適應性自主學習機制的概念即是目前的重要目標。由於資料庫中的檔案是有限的,再有效的分類演算法也不容易概括所有的測試狀況,若是可以將使用者測試的經驗法則也納入資料庫中,不斷累積學習各種測試情境的分類經驗,將可以更貼近使用層面,辨識率也能有效提昇。 此外,如第四圖所示,上述之步驟c)中在對各該影音資料進行視訊部分的特徵內容擷取時,係取得所對應的動態與亮度,並且,還針對各該影音資料進行內容摘錄,其所摘錄之特徵包含攝影機變焦偵測(zoom detection)以及移動物體偵測(moving object detection),這個內容摘錄可製作出短時間的片段(例如1~2分鐘),可讓使用者以直接觀看的方式在短時間內有效率的了解影片的大概內容,但這個內容摘錄在之後不會用來做為比較或其他用途。 舉例而言,在針對影音資料的視訊部分所對應的動態與亮度進行特徵內容擷取時,係將動態與亮度區分成”快/亮”、”快/暗”、”慢/亮”與”慢/暗”四種類別,並分為0-100之間的分數,快/亮的類別是指高動態及高亮度的影音資料,而慢/暗的類別則是指低動態及低亮度的影音資料,並依此分類來取得各該影音資料的動態與亮度的程度。 針對影音資料之音訊部分所對應的情緒類別來進行特徵內容擷取時的狀態係說明於步驟d)中。 d)如第五圖所示,藉由該運算裝置,將各該影音資料的擷取特徵內容與一使用者設定檔或一歷史行為檔進行相似度比較。其中該使用者設定檔具有一標籤喜好值對應於前述步驟c)之標籤,以及具有一情緒類別值對應於前述步驟c)之音訊部分的情緒類別,以及具有一影像類別值對應於前述步驟c)之視訊部分的動態與亮度。在進行相似度比較後即得到各該影音資料所對應的一相似度分數,該相似度分數係對應於前述之標籤、或音訊部分的情緒類別、或視訊部分的動態與亮度、或三者的組合。 上述相似度分析可利用餘弦相似度方法,其藉由影音資料之音訊情緒特徵內容,並搭配上述步驟d)中的該使用者設定檔中的情緒類別值來計算出一部影片的音訊情緒分數SIMemotion,其計算式如下方式(1)所示。 其中S=(S1,...,S8)為八種情緒類別的初始分數所構成之向量,Si為使用者設定檔中的情緒類別值。在音訊情緒分析方面,一部影音資料透過內容分析後即可得出八種情緒類別的比重,並將分析完的結果以向量E表示,E=(e1,...,e8)為分析完音訊情緒後8種情緒所佔的比重分佈向量,ei則表示一段影音資料情緒i所佔的比重。以表一為例: 若使用者設定中的情緒類別值為平靜(calm)情緒,則平靜情緒就會得到8分,其近似的情緒類別驚訝(surprised)以及悲傷(sad)會得到7分,依此類推我們就可以得到八種情緒類別的初始分數向量S=(5,6,7,8,7,6,5,4)。 以表二為例 若使用者設定中的情緒類別值為興奮(exciting),則興奮會得到8分,其鄰近情緒類別高興(happy)即會得到7分,依此類推我們就可以到八種情緒類別的初始分數向量S=(8,7,6,5,4,3,2,1),再透過音訊情緒分析就可以得到E向量,假設一段影音資料分析其音訊部分後,其八種情緒所佔的比重為10%、30%、10%、20%、10%、5%、10%和5%,則我們就可以得到音訊情緒比重向量E=(0.1,0.3,0.1,0.2,0.1,0.05,0.1,0.05),最後透過上述式(1)即可求出一影音資料的音訊情緒分數。 e)藉由該運算裝置,依各該影音資料所對應的相似度分數進行排序,進而得到該等複數影音資料的排序結果。在排序時,可依據上述步驟d)中的三種相似度分數之中的一種相似度分數來排序,也可以綜合多種相似度分數來排序,以多種相似度分數來排序時也可以依操作者的設定來將其中一種相似度分數予以權重分配。 藉由上述步驟可知,本發明第一實施例中,係於網際網路上經由使用者定義一關鍵字後下載複數影音資料,再對各該影音資料進行特徵內容擷取而取得各該影音資料的標籤、情緒類別、以及動態與亮度等資訊,並以一運算裝置(本實施例中以電腦為例)與使用者設定檔中進行比較,最後得出依據使用者喜好而計算出的相似度分數,最後進行排序,而得到依使用者喜好而排序的影音資料順序。 本第一實施例中,雖使用了關鍵字配合標籤、情緒類別以及動態與亮度等資訊來做為比較的條件,並取得排序的結果,然而若不參考動態與亮度資訊,而僅以音訊的情緒類別以及標籤來進行比較以及排序,亦可得到符合使用者喜好的結果。只不過加上動態與亮度資訊的比較可以使得所得到的結果更為準確。亦即,本案並不以加上視訊部份的動態與亮度資訊為限。 此外,本第一實施例中,亦可僅使用標籤、或僅使用情緒類別、或僅使用動態與亮度配合關鍵字來做為比較的條件,並取得排序的結果,而仍可以符合使用者的喜好,雖然這樣的結果較三者均做為比較條件時更差,但仍具有依據使用者喜好來排序的效果。 本發明第二較佳實施例所提供之一種網際網路影音資料之個人化排序方法,主要概同於前揭第一實施例,不同之處在於: 在步驟d)及步驟e)之間,更包含有一步驟d1),係使用權重排名法或階層排名法來進行排序。 在使用權重排名法時,係將該標籤、或音訊部分的情緒類別、或視訊部分的動態與亮度所分別對應的相似度分數予以組合運算,而得到一綜合值。在步驟e)中,對於各該影音資料係不以各該相似度分數來排序,而改以該綜合值來進行排序。 關於權重排名法,舉例而言,假設有K部影片欲進行排序,影片A在標籤結合情緒類別之排序順位為A1,影像動態與亮度之排序順位為A2,此兩種排序順序所乘上的權重值分別為R1、R2,則影片A的最終排名為Ta=A1xR1+A2xR2,由此概念我們可以得到影片A到影片K的最終排多為Ta、Tb…Tk,最終排名值愈小的影片將被優先推薦。 以下列之表三為例,現有A、B、C三部影片參與排序,以標籤結合情緒類別之排序名次分別為1、2、3,影片動態與亮度之排序名次分別為2、1、3,而以標籤結合情緒類別之排名權重乘以0.7,動態與亮度之排序權重則乘以0.3,兩者相乘再相加,數值小的影片其排名在前,此乘上權重的結果為1、2、3,藉此可得知A、B、C三部影片最終的排序結果仍為1、2、3。以此觀念來類推多部影片之權重排名,而可以得到最終的排序結果。 在使用階層排序法時,係將該使用者指標分成三階,分別為(1)音訊部分的情緒類別(2)標籤(3)視訊部分的動態與亮度,並依此來把推薦的影片加以排序。假設有K部影片欲進行排序,在第一階層的情緒類別的分類中,K部影片將被區分成”符合使用者所選或背景情緒”與”不符合使用者所選或背景情緒”兩個區塊,其中”符合使用者所選或背景情緒”需排列在”不符合使用者所選或背景情緒”之前。在第二階層的標籤分類中,將按照標籤的分數高低來排列影片,分數高的需排列在前。若第二階層的分類時,出現標籤分數同分時,則再進行第三階層的比較,第三階層的視訊部分的動態與亮度分類中,係依據使用者對於視訊部分的動態與亮度的喜好,針對標籤同分的影片再做一次排序,視訊部分的動態與亮度分數符合使用者喜好的影片將優先排序。 由上可知,本發明所可達成之功效在於:可將網際網路上所找尋並下載的影音資料,進行分析後依使用者的偏好來進行排序,以符合使用者的需求。 第一圖係本發明第一較佳實施例之流程圖。 第二圖係本發明第一較佳實施例之示意圖,顯示不同情緒之分佈狀態。 第三圖係本發明第一較佳實施例之流程圖,顯示處理音訊部分之狀態。 第四圖係本發明第一較佳實施例之流程圖,顯示處理視訊部分之狀態。 第五圖係本發明第一較佳實施例之流程圖,顯示進行比較時之狀態。
权利要求:
Claims (10) [1] 一種網際網路影音資料之個人化排序方法,包含有下列步驟:a)使用至少一關鍵字經由網際網路系統找尋對應的複數影音資料,並將找尋到的複數影音資料下載下來,該至少一關鍵字係由使用者自行選定;b)由使用者決定一使用者指標,或使用者未決定使用者指標時取用一歷史行為指標,其中該使用者指標及該歷史行為指標均係指使用者活動標籤、音訊情緒類別、或是影像動態類別三者中的其中之一或組合;c)依該使用者指標或該歷史行為指標來對前述已下載下來的該等複數影音資料進行特徵內容擷取而分別取得一擷取特徵內容;d)將各該影音資料的擷取特徵內容與一使用者設定檔或一歷史行為檔進行對應的相似度比較;比較後即得到各該影音資料所對應的一相似度分數,該相似度分數係對應於前述之使用者活動標籤、或音訊情緒類別、或影像動態類別、或三者的組合;以及e)依各該影音資料所對應的相似度分數進行排序,進而得到該等複數影音資料的排序結果。 [2] 依據申請專利範圍第1項所述之網際網路影音資料之個人化排序方法,其中:在步驟a)中,係藉由一上網裝置來使用網際網路,該上網裝置係為一電腦、一智慧型手機或一連網電視。 [3] 依據申請專利範圍第1項所述之網際網路影音資料之個人化排序方法,其中:在步驟c)中,若該使用者指標為使用者活動標籤,則擷取特徵內容為各該影音資料的詮釋資料(metadata)所具有的標籤(tag),該標籤係使用者觀看過此類影片之次數、時間的歷史記錄;若該使用者指標為音訊情緒類別,則擷取特徵內容為各該影音資料的音訊部分所對應的情緒類別;若該使用者指標為影像動態類別,則擷取特徵內容為各該影音資料的視訊部分所對應的動態與亮度;該歷史行為指標係為使用者的使用記錄;在步驟d)中,該使用者設定檔及該歷史行為檔均具有一標籤喜好值對應於前述之標籤,以及一情緒類別值對應於前述之音訊部分的情緒類別,以及具有一影像類別值對應於前述之視訊部分的動態與亮度;在進行相似度比較後所得到的該相似度分數,係對應於前述之標籤、或音訊部分的情緒類別、或視訊部分的動態與亮度、或三者的組合。 [4] 依據申請專利範圍第1項所述之網際網路影音資料之個人化排序方法,其中:於步驟b)、步驟c)、步驟d)及步驟e)中,係藉由一運算裝置來進行運算、比較及排序等動作,該運算裝置係為一電腦或一智慧型手機。 [5] 依據申請專利範圍第1項所述之網際網路影音資料之個人化排序方法,其中:在步驟c)中,在各該影音資料的擷取特徵內容是指音訊部分所對應的情緒類別或是指視訊部分所對應的動態與亮度。 [6] 依據申請專利範圍第1項所述之網際網路影音資料之個人化排序方法,其中:在步驟d)中,在進行相似度分析時係可使用餘弦相似度(Cosine Similarity)的方法來進行評分。 [7] 依據申請專利範圍第3項所述之網際網路影音資料之個人化排序方法,其中:更包含有一步驟d1),係使用權重排名法來將該標籤、或音訊部分的情緒類別、或視訊部分的動態與亮度所分別對應的相似度分數予以組合運算,而得到一綜合值;在步驟e)中,係利用該綜合值來進行排序。 [8] 依據申請專利範圍第3項所述之網際網路影音資料之個人化排序方法,其中:更包含有一步驟d1),係使用階層排名法,先依照該音訊部分的情緒類別所對應的相似度分數排序,再依該標籤所對應的相似度分數排序,最後再依該視訊部分的動態與亮度所對應的相似度分數進行排序。 [9] 依據申請專利範圍第1項所述之網際網路影音資料之個人化排序方法,其中:在步驟c)中,係更針對各該影音資料進行內容摘錄,其所摘錄之特徵包含攝影機變焦偵測(zoom detection)以及移動物體偵測(moving object detection)。 [10] 依據申請專利範圍第1項所述之網際網路影音資料之個人化排序方法,其中:在步驟a)中,係經由網際網路系統至特定網站找尋。
类似技术:
公开号 | 公开日 | 专利标题 TWI449410B|2014-08-11|Personalized Sorting Method of Internet Audio and Video Data US20200125981A1|2020-04-23|Systems and methods for recognizing ambiguity in metadata Cheng et al.2016|On effective location-aware music recommendation US9148619B2|2015-09-29|Music soundtrack recommendation engine for videos US7707162B2|2010-04-27|Method and apparatus for classifying multimedia artifacts using ontology selection and semantic classification WO2017096877A1|2017-06-15|一种推荐方法和装置 JP2013517563A|2013-05-16|ユーザ通信の解析システムおよび方法 EP3367676A1|2018-08-29|Video content analysis for automatic demographics recognition of users and videos JP2008537627A|2008-09-18|複合ニュース・ストーリーの合成 JP2011175362A|2011-09-08|情報処理装置、重要度算出方法及びプログラム US8321412B2|2012-11-27|Digital data processing method for personalized information retrieval and computer readable storage medium and information retrieval system thereof US20100217755A1|2010-08-26|Classifying a set of content items US20090123090A1|2009-05-14|Matching Advertisements to Visual Media Objects Westerveld et al.2003|Experimental result analysis for a generative probabilistic image retrieval model US9235634B2|2016-01-12|Method and server for media classification US20150120379A1|2015-04-30|Systems and Methods for Passage Selection for Language Proficiency Testing Using Automated Authentic Listening CA2757771A1|2010-10-14|Similarity-based feature set supplementation for classification Dinkov et al.2019|Predicting the leading political ideology of YouTube channels using acoustic, textual, and metadata information Bost et al.2018|Extraction and analysis of dynamic conversational networks from tv series US9547698B2|2017-01-17|Determining media consumption preferences CN109447729A|2019-03-08|一种产品的推荐方法、终端设备及计算机可读存储介质 Nixon et al.2019|Multimodal video annotation for retrieval and discovery of newsworthy video in a news verification scenario Yang et al.2013|Lecture video browsing using multimodal information resources EP3706014A1|2020-09-09|Methods, apparatuses, devices, and storage media for content retrieval US11157542B2|2021-10-26|Systems, methods and computer program products for associating media content having different modalities
同族专利:
公开号 | 公开日 TWI449410B|2014-08-11| US20130031107A1|2013-01-31|
引用文献:
公开号 | 申请日 | 公开日 | 申请人 | 专利标题 US20020108112A1|2001-02-02|2002-08-08|Ensequence, Inc.|System and method for thematically analyzing and annotating an audio-visual sequence| US8063295B2|2002-10-03|2011-11-22|Polyphonic Human Media Interface, S.L.|Method and system for video and film recommendation| US7536713B1|2002-12-11|2009-05-19|Alan Bartholomew|Knowledge broadcasting and classification system| US8204884B2|2004-07-14|2012-06-19|Nice Systems Ltd.|Method, apparatus and system for capturing and analyzing interaction based content| US20060074883A1|2004-10-05|2006-04-06|Microsoft Corporation|Systems, methods, and interfaces for providing personalized search and information access| US8112418B2|2007-03-21|2012-02-07|The Regents Of The University Of California|Generating audio annotations for search and retrieval| US8548996B2|2007-06-29|2013-10-01|Pulsepoint, Inc.|Ranking content items related to an event| US7769740B2|2007-12-21|2010-08-03|Yahoo! Inc.|Systems and methods of ranking attention| US8589395B2|2008-04-15|2013-11-19|Yahoo! Inc.|System and method for trail identification with search results| US20120233164A1|2008-09-05|2012-09-13|Sourcetone, Llc|Music classification system and method| US20100107075A1|2008-10-17|2010-04-29|Louis Hawthorne|System and method for content customization based on emotional state of the user| US20110113041A1|2008-10-17|2011-05-12|Louis Hawthorne|System and method for content identification and customization based on weighted recommendation scores| US20100114937A1|2008-10-17|2010-05-06|Louis Hawthorne|System and method for content customization based on user's psycho-spiritual map of profile| US20100169338A1|2008-12-30|2010-07-01|Expanse Networks, Inc.|Pangenetic Web Search System| US20100268704A1|2009-04-15|2010-10-21|Mitac Technology Corp.|Method of searching information and ranking search results, user terminal and internet search server with the method applied thereto| JP5872753B2|2009-05-01|2016-03-01|ソニー株式会社|サーバ装置、電子機器、電子書籍提供システム、サーバ装置の電子書籍提供方法、電子機器の電子書籍表示方法及びプログラム| US20110004613A1|2009-07-01|2011-01-06|Nokia Corporation|Method, apparatus and computer program product for handling intelligent media files| US20130138637A1|2009-09-21|2013-05-30|Walter Bachtiger|Systems and methods for ranking media files| US8346781B1|2010-10-18|2013-01-01|Jayson Holliewood Cornelius|Dynamic content distribution system and methods| US20120179692A1|2011-01-12|2012-07-12|Alexandria Investment Research and Technology, Inc.|System and Method for Visualizing Sentiment Assessment from Content|WO2013018913A1|2011-08-04|2013-02-07|日本電気株式会社|映像処理システム、視聴者の嗜好判定方法、映像処理装置およびその制御方法と制御プログラム| US9235603B2|2012-03-27|2016-01-12|Verizon Patent And Licensing Inc.|Activity based search| US9110988B1|2013-03-14|2015-08-18|Google Inc.|Methods, systems, and media for aggregating and presenting multiple videos of an event| US9390706B2|2014-06-19|2016-07-12|Mattersight Corporation|Personality-based intelligent personal assistant system and methods| US10478370B2|2014-06-30|2019-11-19|Rehabilitation Institute Of Chicago|Actuated glove orthosis and related methods| US20160063874A1|2014-08-28|2016-03-03|Microsoft Corporation|Emotionally intelligent systems| CN105843876B|2016-03-18|2020-07-14|阿里巴巴(中国)有限公司|多媒体资源的质量评估方法和装置| KR20190109661A|2018-03-08|2019-09-26|한국전자통신연구원|동영상 감정 학습용 데이터 생성 방법, 동영상 감정 판단 방법, 이를 이용하는 동영상 감정 판단 장치| US11157542B2|2019-06-12|2021-10-26|Spotify Ab|Systems, methods and computer program products for associating media content having different modalities|
法律状态:
优先权:
[返回顶部]
申请号 | 申请日 | 专利标题 TW100127105A|TWI449410B|2011-07-29|2011-07-29|Personalized Sorting Method of Internet Audio and Video Data|TW100127105A| TWI449410B|2011-07-29|2011-07-29|Personalized Sorting Method of Internet Audio and Video Data| US13/435,647| US20130031107A1|2011-07-29|2012-03-30|Personalized ranking method of video and audio data on internet| 相关专利
Sulfonates, polymers, resist compositions and patterning process
Washing machine
Washing machine
Device for fixture finishing and tension adjusting of membrane
Structure for Equipping Band in a Plane Cathode Ray Tube
Process for preparation of 7 alpha-carboxyl 9, 11-epoxy steroids and intermediates useful therein an
国家/地区
|